萨宾娜·格莱斯、托马斯·魏根特:前沿推介——智能代理与刑法
智能代理与刑法
萨宾娜·格莱斯、托马斯·魏根特 著 / 赵阳 译
萨宾娜·格莱斯(Prof. Dr. Sabine Gleß):瑞士巴塞尔大学法学院刑法与刑事诉讼法教授;托马斯·魏根特(Prof. Dr. Thomas Weigend):德国科隆大学法学院外国刑法与国际刑法研究所所长、教授
原文“Intelligente Agenten und das Strafrecht”发表于《整体刑法学杂志》2014年第3期(ZStW 2014, 126(3):561 - 591),译文发表于《刑事法前沿》第十卷社会科学文献出版社2017年12月版。
摘 要
本文探讨的是机器人未处于人的持续监控下而造成损害,刑事责任如何确定的问题。今天,“智能代理”——亦即在收集和处理信息后对环境做出反应的机器——,已经为人类承担了多种多样的工作,从上网查找信息到修剪草坪或制造产品;自动驾驶的车辆不久就会出现在大街上,收集垃圾或者参与战争行动。由于机器人没有人类固有的一些缺陷,诸如处理数据能力有限、易于分心或疲劳,它们甚至可能比人类做得更出色。但是机器人造成损害的情形也将随之而来,例如机器人汽车撞死行人。这就会引起刑事责任的传统问题:谁是行为人从而应当承担造成损害的罪责?是机器后面的那个人还是机器人自己?本文基于哲学以及新近的一些确认和限制刑事责任的路径,为确定罪责的传统讨论提供一些可能的回答。
一、智能代理——潜力与风险
“罪魁祸首是算法”,媒体如是说。一位德国前总统的夫人,她的名字被键入谷歌搜索引擎后,会自动地与“卖淫”或“陪伴服务”这样的概念联系到一起,于是她采取了法律手段维权。然而在原告看来具有侮辱性的这些字眼,并非被告公司员工个体决定的产物,而是产生于“谷歌网页抓取工具”和“谷歌自动填充”功能,这些功能根据确定的一般行动规则处理用户的提问。这两种功能都是所谓智能代理的例子:这些功能均按照一定的、事先确定的规则运作,但是它们在每一项个案中自主地处理信息(即谷歌用户的搜索行为)。
智能代理以不同形式被应用的场合,或者是海量信息需要精确组合以及快速反应,或者是需要投入超过人类承受力的体能。今天,智能代理已经出现在生活中的诸多领域:它们作为互联网搜索引擎,以非常简单的软件代理的形式决定着我们对信息的获取,从而一定程度上决定了我们对现实的感知;而“阅读软件代理”则在网上股市交易中,根据特定登录信息自动做出买进或卖出的决策。诸如“智能手术刀”和“铣削机器人”这样的复杂系统可以实施医学手术;智能飞机(“无人机”)不仅被用于军事目的,而且被用于敏感民用领域的监控和安保,将来还可能被用于货物运输。而工业界正在努力制造用于公共道路的无人驾驶汽车,这是当前智能代理引起公众最多关注的方面。
在信息学界,满足什么条件的机器可以被称为智能代理,以及智能这一概念的内容,均存在争议。为了从法律角度进行评判,将机器根据其技术工作原理分为三类系统是有意义的:(a)简单的数据处理系统,例如计算器,这类系统的开发者已经完整地确定了可能的数据采集方式以及依据分层定义算法对数据的处理;(b)开放系统,例如自动割草机,它们可以通过传感器从外部世界采集不同数据,但是只能按照开发者确定的、不可变更的规则处理这些数据;(c)智能系统,它们不仅能够采集大量数据,而且可以按照一定模式对数据进行解释,还可以自主地对处理过的数据做出反应。开放系统和智能系统只要通过传感器对环境进行分析和处理,就属于自主行动。但是只有智能系统能够针对所采集的、经过其解释的信息做出直接反应,并且存储这些信息以供嗣后的决策过程使用。这可以是非常简单水平的功能,例如网络搜索引擎可以存储所有的用户问题、提供被询问最多的组合并且记录被接受的答案。而有些智能代理则必须做出相当复杂的决策,例如自动驾驶汽车要在与其他司机互动的过程中通过一个交通繁忙、由交通标志规范的路口。
然而即使是很先进的智能代理,其智能化程度也取决于它的程序设计。为智能代理设定的行为规则是基于大量的模拟,这些规则并不足以让智能代理应对现实生活中所有可能的变化。而且智能代理与人不同,它们不会将编程设定的规则直接通过类比或“直觉”运用到新情况中。在本文开头所述的案例中,如果为“谷歌自动填充”设定一项规则,令其不得用“卖淫”或“陪伴服务”的字眼对某个特定人的名字进行补充,系统也并不会因此就认为像“应召女郎”或“红灯区”这类词同样是禁止的。
但是“真正”智能的系统不仅按照模板组织采集到的大量数据,从而尽可能有效率地达到预期目标,还能够(在最广泛的意义上)学习,其方式是根据所获得的信息调整自己的行为。这也可以在很简单的层次进行,例如网店的推荐系统,它告诉买方“还可能对什么感兴趣”(其推荐与真实的卖方的直觉非常接近)。推荐系统自动向用户推荐其他商品,该系统背后是一个智能代理,它持续地从用户输入的信息分析其好恶,并与其他用户的数据进行比较,它所利用的是一套特殊的统计系统与随机生成器的组合。为此目的,智能代理存储全部用户的信息痕迹,因为推荐系统需要海量数据来构建——从统计角度看——有相同兴趣的客户集群。无人驾驶汽车则是在复杂得多的水平上“自主”工作:由于它自行按照模板对通过传感器采集到的数据进行分析并且直接对之做出反应,这不仅给外人造成汽车仿佛是自己在行动的印象;而且连开发者也无法确切地预见,汽车在特定交通状况下,会如何通过各种数据处理过程的组合做出反应,事后也无法完全理解汽车做出的单个“决策”。也就是说,在某些情况下,开发无人驾驶汽车的工程师可能只有等到出了一系列事故,才会认识到,在诸如面临特定光线或天气条件时汽车不能识别道路优先权的标志。
当智能代理面临编程未设定适当反应的情形,以及智能代理自行根据“经验”决定采取特定行动的情形,其行为都是不可预见的。智能代理试图完成人交给它的任务,即使它为此必须应对新情况。这恰恰是它的巨大作用所在。但是人也因此而无法完全预见和控制智能代理在面临此类计划外情形时的行为;例如人无法预见,自动驾驶的汽车遇到不能清晰辨认的交通标志时,是否以及何时会由于以往面对类似交通标志的“经验”做出误判。具备学习能力的机器人对于人类有着特殊价值,而从某种程度讲,缺乏可控性则是事物的另一面。
下一步可能会发展到机器与人之间的“情感”互动:人类正致力于通过编程使得智能代理对人的情感需求也能认知,并且模拟情绪反应。现在这已经在简单层面实现了,例如网店对未下订单的用户自动回复:“抱歉,未能找到适合您的产品。”某些用户乐于见到机器针对他个人表达的同情(或许下一次就准备购买些什么),尽管这实际上只是一个非常简单的自动设置而已。在病人护理领域人们也发现,痴呆症患者会认为动物造型的机器人有感觉,从而与后者之间搭建“情感桥梁”。在信息学界有所谓“爱丽莎效应”,亦即人不自觉地以为智能代理的行为背后有着相当于人的行动方案和自己的动因。但是这一效应蕴含着对机器的行为和反应做出误读的风险,从而导致人与智能代理之间互动时出现“误解”。
上面的概述表明,具有学习能力的智能代理为人类开启了一个新的进步维度。同时,对此类智能代理的行为进行法律评价也引发了新的难题。难点首先在于智能代理行为的责任问题。在民法领域人们已经在研究这个问题;而在刑法领域讨论才刚刚开始。如果智能代理造成了具有刑法意义的结果(例如人被杀或受伤,或者物品被毁坏),就会产生责任问题:谁是行为人?谁承担刑法上的罪责?使技术发挥其作用的那个人?还是智能代理本身?亦或竟无人承担刑责,因为公众原则上希望开发并利用此类技术,因此也必须承担其(部分的)不可预测性带来的后果?下文概要介绍使用智能代理所引发的刑事责任的可能理由及其界限,旨在探讨前述问题。
二、智能代理作为可受刑事处罚的主体?
我们的刑法是为人制定的。如果人的行为导致了构成要件所描述的结果,那么该结果要归责于人。如果人能够认识到其行为的不法性,也能够以可期待的方式避免,却仍然故意或者过失满足了犯罪构成要件,那么刑法上的罪责也由人承担。然而我们已经看到,智能代理也可以具有学习能力,并且至少能够在引申的意义上“自主地”行动。这是否意味着,智能代理也像人一样可以受刑事处罚?
1、先驱:作为刑法主体的动物和机器人
开始寻求这个问题的答案之前,我们想先简单回顾一下有关对非人类进行刑法惩戒的经验和设想。
在过去的数个世纪中,罪责与刑罚并非由人类所垄断。针对“无灵魂体”同样会实施报复。刑法史有关于欧洲近代早期针对动物的刑事诉讼程序和刑罚的记载。一起比较晚近的动物诉讼相传发生在巴塞尔(1474年):审判是针对一只公鸡,它被指控下了一个蛋,蛋中孵出了一只蛇精。这只巴塞尔的公鸡和其他被判决的动物一样,被判处死刑。惩罚动物到底是基于什么动因,直到今天仍然存在争议。历史学家首先提到的是农民通常有权杀死到处游荡造成损害的牲畜。动物诉讼的另一个渊源可能是寻求神佑从而免受魔鬼困扰。报复思想可能也起到一定作用:中世纪时人们认为,上帝赋予动物从属于人类的“侍从性”(服侍性)角色;动物违背了这一职责就应当——像人类一样——受到惩罚,从而使世间的等级关系得以恢复。随着启蒙运动以及预防性刑罚理论的传播,针对动物的刑法也走到尽头。自此以后,动物不再被等同于人,而是被作为物对待(见《德国民法典》第90a条第2句)。但是在当今“动物权利”运动的背景下,人们也在考虑,动物是否不仅享有权利,还应承担义务。
按照现代的理解,机器和动物一样不具有人的法律地位。它们不被当作自主的生命体,因为它们是以被定义好的方式发挥其功能。马克×吐温1906年就写道:“(机器)所做的不会超出或者少于它的制造者允许和迫使它做的。机器毫无人的特质,它不能选择。”智能代理尽管被作为“社会机器人”用来与人互动,但就其根本而言,它们也不外乎是各种不同技术原件——诸如机箱、计算机和传感器——的组合。
但是在科幻作品中我们总能发现端倪,表明原本被设想为人类助手的机器或许还是能够做得更多。逐渐演化成人的机器人一再成为科幻小说的主题。早在1950年,艾萨克×阿西莫夫就形象地阐述了机器的法律人格问题。在小说《我,机器人》中,阿西莫夫提出了规范人与机器人之间(上下等级)关系的行为法则。在许多科幻影片中,有着更强自主意识的机器同样扮演了重要角色。典型的例子当属史蒂文×斯皮尔伯格执导的影片《人工智能》中的机器男孩大卫,它满怀悔意地向它的人类妈妈保证会改过——就像经典人物匹诺曹那样,以便能够回到家中。
2、作为人的智能代理?
这些作品描述的智能代理都学会了发展自我意识、感觉、情感共鸣以及道德,因此也都被赋予了一定的意思自由甚至道德代理的身份,尽管这都是虚构而非现实,但这些书和影片还是提出了重要而有趣的问题,特别是应否以及在什么条件下考虑对智能代理进行处罚。也许不久的将来,机器人就不会再比人类更强地受到“远程操纵”,人类所谓的自主决定其实都是在一张无法看透的、受到遗传、教育和社会环境影响的网络中做出,尽管如此我们仍然将其定义为“自主”负责。
在这个意义上,首先提出的问题就是机器与作为传统刑法主体的人的界限在哪里。预先编制的程序使得机器人有能力将从外部采集的数据与已知模板进行比较,并且据此采取行动,这就足以让我们将其看作应当为自己的行为负责的“人”吗?
根据以洛克和康德为代表的法哲学观念,人必须能够发展出与自我的思想关系。自我反思的能力使得人可以自主决定;或者如康德所言:鉴于人拥有自我意识,人也自视为“只受他通过理性为自己制定的法则支配,在其存在中,任何事情对他来说都不会先于其意志支配,而任何行为……在其知性存在的意识中都应当被视为因果关系的结果而不是原因、不是‘本体’。”因此康德继续写道,理性生物对任何他实施的违法行为都有理由说,他原本可以不这么做。而如果人在关于其存在自由的自我意识中必须将自身视为其行为的责任者,那么其他人也可以将责任归于他。另外一个思想传统源自黑格尔,严格区分法哲学意义上的人(Person)和生物人(Mensch)的概念,将前者理解为社会权利义务的潜在承担者。
这些唯心主义哲学(唯理论哲学)的思考当然并未涉及现代机器人。但是仍然可以认为,智能代理缺乏作为人的至关重要的因素:尽管它能够学习并且做出其他人无法预知的决策,但它对于它自身的自由并无意识,更遑论将自己视为社会权利义务的承担者。智能代理虽然能够“自动地”完成某些任务,但它们即使具备学习能力, 所遵循的最终仍然是由程序规定的选择,而并没有对其行为给出自己的理解。因此我们认为智能代理是“非自由的”,也不令其承担造成损害的个人责任。
必须明确的是,上述论断涉及的一方面是人工智能发展的现阶段状况,另一方面是德国哲学对于人的概念的传统理解,而后者对于刑法来说,始终仍然是决定性的基本参照系。如果人类在“典型的人”的维度上继续研发智能代理,诸如自我意识、权利意识、伦理以及情感方面的反应等等,那么当然需要重新审视能否将其作为(或许也具有承担罪责能力的)权利主体的问题。
3、智能代理的可罚性?
智能代理面对情况变化不能为其行为承担法律或道德责任的问题,也在刑法义理学的范畴中得到反映。这个问题与法人的可罚性问题有些类似之处,两者首先都牵涉到“行为”以及“罪责”的前提条件。
(1)智能代理的行为能力
网络搜索引擎编排出有损人的声誉的词语组合,无人机伤害了无辜的人,无人驾驶汽车碾压了行人:如此描述的过程似乎指向智能代理自身的行为,只要它独立于人的实际操控,其行动是依照预先编制的——具有前面介绍的那种学习能力的——程序。但是这真的是智能代理实施的刑法意义上的“行为”吗?
刑法学首先在上世纪中叶探讨了何时才存在法律上有意义的行为这个问题。传统的“因果说”认为任何任性的身体活动都足以构成刑法意义上的行为;该理论的现代“社会性”变种则要求身体活动还须具有一定的社会关联。如果将这些定义适用于智能代理,那么毫无疑问,那些脱离了纯软件环境(例如互联网)、以机械运动形式出现的机器人是有“身体”活动的;而这里存在的问题是,智能代理能否“任性地”行为。但是因果行为说并未在行为受意志支配方面提出很高的要求;只有当人的身体纯粹出于“本能”做出反应(例如某些无法控制的反射),或者被他人当作有形物体加以利用(例如甲将乙举起砸向丙),才不属于任性的行为。简单的、受人控制的机器——例如吸尘器或传统的汽车——属于这里的第二种情形,但是具有学习能力从而能够摆脱人的随时监控的智能代理则不属于,按照因果行为说,它们可以“任性地”做出决定。
与早先占主导地位的因果行为说不同,目的行为说主张将目的导向性作为人的行为的核心标准。持此论者认为,人的行为与其他可能导致损害发生的事件的区别在于:前者由人的意志所决定。只有当人的行为反映了行为人欲达到某种目的的意愿时,该行为才具有刑法上的意义。据此,智能代理具有什么样的行为能力呢?因为能够学习,它们可以自主地决定最优化的中间步骤,这些步骤在当时的情况下可以使它们成功完成任务。例如在很简单的层面上,网络搜索引擎可以根据一定的询问数量,自主地对搜索关键词进行组合;或者在复杂得多的水平上,武装无人机能够锁定并攻击敌方目标。至于人如何认定智能代理此时的行为,是将其视为根据程序预设的“选项”做出决定,还是认定其在进行“判断”亦即“自主的”评价,则是一个(外部)评判的问题。而即使采纳后一种认定,也不意味着智能代理自己能够“有意地”设定目标并且依据目标采取行动。这至少需要以下前提,即智能代理“认识到”自己在做什么,并且知道自己的行为“有社会意义”,也就是有可能对他人的生活产生影响。智能代理能否具有或者获得如此的自我意识,是所谓人工智能探讨的课题,但是迄今为止关于这个问题还没有肯定的答案。我们今天(仍然)不认为,智能代理了解自己的行为并且感受到自己行为的——超出服务于程序预设目标之外的——意义。
智能代理(在刑法上的)行为能力的问题最终应该是一个定义的问题:如果仅仅从因果方面进行表面观察,将任何“任性的身体活动”均定义成行为,那么当然可以将智能代理看作行为人。对行为的概念做越多的实质性扩充,在其中加入越多的自主目标设定的内容,那么智能代理就越无法满足行为能力的前提。
(2)智能代理的责任能力
如果肯定智能代理能够实施刑法意义上的行为,那么随之而来的难题就是智能代理可能的刑事责任问题:智能代理能够承担罪责吗?能否指责搜索引擎在用户键入某个姓名时显示了污人名誉的词语组合,或者指责智能手术刀切除了健康的组织而不仅仅是患病的部位?在民法领域,有人建议将智能代理视为单独的责任主体,可以通过事先设立的责任基金令其为所造成的损害负责。在刑法领域亦有人认为,鉴于智能代理具有学习和记忆能力,也应当让它们有责任能力。但是根据宪法确立的罪责原则,可罚性以行为人应对其行为承担个人责任为前提,而这里的所谓个人责任是指,如果行为人付出充分的、对于他而言并非苛求的努力,该行为本可避免;只有在此种情况下,其不法行为才可以归责于他。联邦法院曾在1952年对此做出经典表述:“罪责指责的内在依据是,人的本质在于自由的、负责任的、合乎道德的自我决定,因此人一旦达到道德上的成熟,就有能力选择合法而拒绝非法,有能力按照法律规定的应当如何行事来指导自己的行为,而避免法律所禁止的行为。”
这个定义似乎断然否定了智能机器在刑法上的罪责,因为无论如何,智能代理目前尚未被认同为道德上自我决定的人,而是由电脑支撑的技术,用来按照程序执行交给它们的任务。因而联邦法院宣称的那种罪责不能被归于智能代理。然而在1952年还是(或者再次)相对无争议的关于人的意志自由的教条——这也是传统罪责概念的重要基石,近来由于脑科学研究的一些发现而受到强烈质疑。当前的争议还能为意志自由人的理想图景留下些什么,尚无定论。但是这对于智能代理可能承担的刑法上的罪责来说,也并不具有初看上去那样的决定性意义。因为在讨论神经生物学的新近研究成果之前,对刑法而言已经在很大程度上达成共识,即刑法上罪责的“确定”涉及的并非查明神经上的联系与过程,而是在当前社会关系中的期待与归责。
对罪责原则做如此理解,将其与神经的过程剥离,就可能找到切入点来接受智能代理的“罪责”。从功利视角来看,谁是犯罪行为所体现的社会冲突的始作俑者,谁就应当承担罪责。“自由意志”的观念也可由以下理念代替:“自主行为的自由”并非自然现象,而是一种归责的产物,这种归责服务于特定的社会目的,即在相互承认自由的前提下对社会进行组织。然而在当今社会条件下,不能随心所欲地判定罪责以及基于罪责的法律责任,否则就要危及到刑法的社会功能。谈到让一个人为其行为承担责任的最低前提,就要回到前文所述的条件,即自我反思的可能性。没有能力在伦理参照系中对自身以及自己的决定做出评价的人,或者用通俗的话说,不具备“分辨善与恶的良知”的人,不能成为法律意义上的人,也不能成为承受责任与罪责的对象,因为我们无法与他进行伦理对话,他也不能针对伦理指责做出“回答”。对于这样的代理——就像对野兽或者严重精神错乱患者那样,只能采取危险防范措施加以控制,却不能进行刑法的惩罚。
但是今天的智能代理在“做出决定”时所依据的,已经不仅仅是对于自身先前的行为方式成功与否的简单评价。交给智能代理的任务越难,就越要求它具有复杂的学习构造;例如一辆自动驾驶汽车,为了到达目的地,必须决定是否走一条交通拥堵的联邦公路,或者是否要穿过一条禁止通行的、供儿童游戏的街道。可以预见,未来的智能代理还将必须在更大的范围内从伦理方面考虑其决定。例如自动驾驶汽车要采取必要的避让行动,而这又可能造成对第三方法益的侵害;利用民用无人机发送网购商品,同样可能遭遇伦理上的两难处境。实施这类(已经很具体的)方案时,送货无人机执行任务必须经常在多种可能的行动中做出选择,它所依据的是(程序设定的)奖惩模式,该模式亦考虑到对规则的遵守。如果一架无人机既要执行特定任务(例如在17点以前将商品送达收件人),又被要求以社会容许的方式执行该任务,例如履行噪声保护方面的义务并尊重途中所遇人员的隐私,那么它将如何行事?因此必须为无人机设定详尽的行为规则,例如不得低空飞越医院或顶层住宅。当无人机遵守这些规则时,它就得到加分,反之则减分,分值则取决于违规的严重程度。从使命完成后得到的加减分汇总,无人机可以“学到”,将来以能得到更好分数的方式实现目标。对于这样的系统,人们会问,违规是否不仅仅导致智能代理调整将来的行为,毋宁说也可以让无人机为其“错误的”违规行为承担罪责,例如当它选择了飞越多所医院的、被扣分的路线。
这样的归责当然可以设想,但是这对于解决诸如尽快送货和病患需要安静之间的社会利益冲突真有裨益吗?要对这个问题给出肯定的回答,需要一个前提条件,即复杂的奖惩系统对于智能代理而言,在功能上相当于伦理的自我评价与自我掌控之于人类。只有满足这一前提,让智能代理背负刑法上的罪责指责才有意义。要做到这一点,必须对 53 51553 53 27654 0 0 12799 0 0:00:04 0:00:02 0:00:02 12796责成立的必要条件——即认知不法的能力——加以调整,使之适应智能代理的情况:只要自然人(或智能)代理能够认识到某种行为不受欢迎,因而“内心上”对该行为做出否定评价,即属有能力认知不法。从新千年伊始出现的机器伦理领域即专注于这些思索。这里首先涉及的问题是,能否以及如何对机器人应用以伦理为基础的规则体系。但是迄今为止,这些研究项目仍然处在很幼稚的阶段,鉴于将伦理决定进行程式化普遍遇到很大困难,为机器人编制这类决定的程序还将是漫长的过程。
(3)对智能代理的处罚
如果人们仍然认为,至少在可预见的将来,可以让智能代理承担刑事责任,那么在引入一部“机器人刑法典”之前还要面对另一个问题:是否能够对智能代理进行处罚?无论如何,我们的刑法目前还是只针对人,因而也排斥这样的设想,即人以外的主体能够或应当为其错误行为受到惩罚。这个原则在一些法律制度中被打破,因为它们允许对法人科处刑罚。即便是这些(多为金钱方面的)处罚,最终也并非被施加于抽象的“法人”,而是那些经济上隐于法人身后的自然人——诸如股东。目前还很难设想一种针对智能代理的“处罚”,其意义和目的与对人的刑罚相当。由于智能代理并无自己的财产(无论如何智能代理不能领悟到它自己拥有财产,即使该财产在民法上应当以某种方式属于它),对其科处的罚金就必须由其使用者或者责任基金支付,因而这种处罚也就并未伤及它;而由其“亲自”承受的处罚,诸如将其捣毁或者为其完全重新设置程序,虽然表面上看像是一种死刑,但是这对智能代理产生的作用仍然迥异于对人——只要智能代理还未被赋予人的(继续)生存意志。鉴于智能代理不能真正感受到刑罚,现阶段也就无法对其科处刑罚。人类可以将捣毁机器人理解为对其错误行为的责难惩罚,然而这一层意思并不能传达给机器人。尽管如此,关于智能代理(哪怕是“不完全的”)刑事责任的设想依旧可能具有法律上的意义,也就是说,这有可能使得背后的那个人免除责任。
4、中间结论
如果智能代理仅仅在其程序设定的框架内“做出决定”,那么它们可能根本就没有能力实施刑法意义上的“行为”——这要取决于对行为如何定义。肯定智能代理的行为能力,就要面临应否让智能代理承担罪责的根本问题。这一点是有疑问的,无论智能代理是按照预先计算好或者至少是可以预先计算的流程决策,还是根据自身经验对采集的数据进行解释并决定采取何种步骤。因为按照我们今天的理解,只有具备良知,亦即能够进行伦理上的自我反思的主体,才有承担罪责的能力。这在现阶段的智能代理身上是看不到的;但是就未来的智能代理而言,至少具备类似的对自身行为进行“道德”评价的能力是完全可以想象的。最后的步骤在于创设智能代理的刑事能力,也就是让智能代理具有一种构造,使其能够将对自己行为的道德否定与特定的外部变化相联系。而这还将是一个漫长的过程。
三、智能代理身后的人
智能代理可能造成重大损害,而对此却没有适当的刑法惩戒手段,这很令人尴尬,而智能代理在我们的生活中出现时越是能够看似独立地行动,这种尴尬局面就越严重。只要不能令智能代理承担独立的刑事责任,我们就面临一个紧迫问题:在何种条件下机器背后的人可以以及必须为智能代理的错误行为担责?例如,当网络搜索引擎提供了诽谤性的词语组合时,计算机技术的开发者或搜索引擎的经营者是否应当承担责任?如果无人机向无辜的人开火,或者无人驾驶汽车造成其他交通参与者伤亡,那么制造者或销售者是否应受刑罚处罚?
1、基于故意的可罚性
如果智能代理引起了刑法意义上的结果,而这又是由于智能代理的操作者刻意或者在明知的情况下设定的程序,那么该操作者的刑事责任不成问题。军事指挥官刻意使用无人机杀害平民,或者无人驾驶汽车被故意设定程序令其碾压道路上的骑车人,这样的情形下可以迳行确定,危害结果系由军事指挥官或无人驾驶汽车的制造者一手造成,他们应当作为相关犯罪构成要件中的行为人承担责任,因为他们是在利用——无论是多么智能化的——代理,就像常人根据自身意愿使用一件工具一样。这在按照自己意图操纵机器的人来说,实际上是直接故意。
2、基于过失的可罚性
而更为常见的情形是,使用智能代理造成了人们并不希望的损害:无人机的操作者只想打击预定的军事目标,无人机却因功能失灵而偏离轨道杀死了平民;无人驾驶汽车本应遵守道路优先权规则,但却违规并在十字路口撞伤骑车人。在这些情况下,只能考虑基于过失对操作者进行处罚,条件是操作者本应预见到满足构成要件的结果(平民的死亡、骑车人的受伤),并且没有尽到必要的谨慎义务以防止该结果的发生。另外,结果的发生还必须能够归责于操作者。所有这些方面都为智能代理的应用提出了新的课题。
(1)可预见性
过失的要素之一是结果发生的可预见性,在制造和操作智能代理的过程中,这一要素已经提出了问题。因为对于从环境中采集到的信息,智能代理是独立地进行评价,然后无须人的继续干预,即对评价结果做出反应,从而最大限度地执行为它们预设的任务。即使操作者持续关注一个复杂智能代理的行动(反应),他也无法具体预测,机器人会从采集的数据中读出哪一种模式、如何对其解读并做出反应。由此还可以进一步得出结论,即此类开放系统中设定的决策规则通常是有漏洞的,因为人们不可能预见到生活中的一切场景,并通过算法将其翻译成行动指令,还因为系统在应用过程中会自主学习。
那么对于第三人来说,智能代理某种程度的不可测性以及与此相联的危险性就是一种“预设”。例如可能出现这种情况:无人驾驶汽车未能正确解读一块略有污损的“减速让行”交通指示牌,因此无视了一名骑车人的路权而将其撞伤。无人驾驶汽车的操作者或许会针对过失身体伤害的指控提出反驳,声称他无法预见此种错误行为,因为汽车是自主处理采集的数据。而从这一认定中,人们可以得出两个对立的结论:要么自主行事的智能代理的操作者永不因过失而受罚,因为机器的损害行为是依据其自主的信息处理,操作者无法预见;要么完全相反,即运用智能代理的人必须预见到“一切”,也就是说任何损害原则上都属可以预见。
第一个结论很难站住脚:一个人既然将其无法安全掌控的智能代理投入使用,就不能简单地以智能代理的不可预测性为由,拒绝为智能代理做出的超出预见、引起损害的错误反应承担责任。这就像一个动物园园长,如果他把老虎放了出来,那么当老虎攻击并咬伤行人时,他不能以野兽不可测的天性为由推卸责任。否则就会在人和智能代理之间产生责任混淆,使得智能代理失灵对受害人造成的意外伤害引不起任何后果,这从规范角度而言是令人无法接受的。而如果任何可能的损害后果对于操作者来说,都必须视同可以预见,那么构成要件实现的可预见性这一前提,就不再是操作者为智能代理的任何造成损害的行为承担全面过失责任的障碍。
(2)违反谨慎义务
除了构成要件实现的可预见性以外,基于过失的可罚性还要求一个前提,即行为人违背了谨慎义务。一般而言,这种义务的违反就源自结果的可预见性:当一个人认识到,他的行为可能造成对某种受保护利益的侵害,却仍然我行我素,那么其行为通常也就违背了谨慎义务。特别是针对生产经营潜在的危险产品,司法机关阐明了尤为严格的谨慎义务规则,刑法上的这些规则大多是从民法传承而来。根据这些规则,除非此类产品的安全性与科技发展的现状相符,并且在投入使用前经过了充分的实验测试,否则将其投放市场的生产者都不算尽到谨慎义务。即使生产商已经将产品投入流通,他仍然必须根据消费者的反馈持续跟踪关注该产品。如果在此期间出现意料之外的损害或风险,生产者有义务向消费者发出警示,并在紧急情况下召回产品。
上述规则原则上也(恰恰应当)适用于创新性产品,例如智能代理;如前所述,这个领域中风险非常之高并且难以控制。但是刑责的威慑有可能导致(至少某些)智能代理的生产经营——由于缺少可控性——完全终止。这样的结果虽然赢得了安全,但另一方面却损失了大量的、能为人们的生活带来重大便利的创新应用。而基于过失的可罚性并非要求人们必须放弃任何可能蕴含风险的行为。如果人们认为利用智能代理的服务是有意义的甚至必须的,那么解决之道唯有减轻所要求的谨慎义务。在规范谨慎义务时,要比较操作者带来的风险以及相关技术带来的益处。假如“社会”从创新中获得了好处,却通过刑法将与此相联的不可避免的风险转嫁给操作者,这是不公平的。
针对不够谨慎的指责,智能代理的操作者或许可以辩驳说,研发或提供具有学习能力、因而只在有限程度上可以预计和掌控的技术,这是服务于社会的需求。于是就提出了一个决定性问题:在什么样的范围内,社会准备为了更高的整体利益而接受智能代理对于个别(或者许多)人造成的特殊危险。这个问题的答案是复杂的,因为恰恰是智能代理自主决策的能力造成风险,它使得人无法进行完全的控制,但是同时又提高了自身的利用价值,因此从经济和社会角度来说又是值得欢迎的。
并不存在一个清晰明了的解决方案。一方面,当今社会肯定不会毫无批评地容忍朝着机器主宰世界的方向发展,不会将与此相联的严重风险——这里只需想想失控的武装无人机——简单地当作进步的代价而接受。另一方面,投入智能代理研究的公共资助也表明,社会利益要求应用此类现代技术。我们也可以认为,与智能代理应用相关联的某些风险——诸如非法使用搜索引擎存储在互联网上的信息,已经为公众所接受。只要公众打算容忍新技术带来的风险,也就必须接受这样的后果,即智能代理超出预测的反应,会对随机遇到的人造成(一般来说)可预见的损害,而操作者却不受刑事处罚。对这种情况可以设立保险或者规定民法上的危险责任;但是对于一般可预见的损害,必须免除操作者的全面刑事责任。
但是另一方面,给他人生命健康造成难以预料的风险而无需担负刑责的领域又不能过于宽泛。因为社会虽然准备接受与智能代理互动所带来的某些风险,但是也非常重视将此类风险尽可能降至最低——通过审慎的制造与编程、深入的测试以及持续的关注。因此决定性的问题是,对于尽量有效与全面限制伴随智能代理而来的风险,应该提出什么样的要求。至于为此要付出多少必要的开销,一方面取决于相关智能代理有多高的利用价值,另一方面取决于它会造成多严重的危险。从这两个角度来看,对于武装无人机要采取非常广泛的预防措施,而网购过程中出现的超预期反应则毋宁被容忍,即使这可能会给用户造成小额财产损失。根据利用价值的不同,人们应该对开发应用智能代理的特定风险予以认可。例如在经过充分测试后,可以将无人驾驶汽车投入交通运营,即使在罕见的情况下,它遭遇意外状况时会突然刹车。鉴于无人驾驶汽车无论对于个人还是对于解决普遍性的交通问题都显示出巨大潜能,可以对其适用更为宽松的标准,既宽松于技术上更简单的产品(例如吸尘器或自行车),也宽松于社会效益价值更小的智能代理(例如玩具或无人战斗机)。
但是对相关人员受到保护的法益要尽到谨慎义务,这要求即使对有益的智能代理也要最大限度地排除其风险。因此即便创新的风险为人们所接受,也存在诸如针对用户的广泛的警告和提示义务,以及生产者关注产品使用经验并对损害反馈立即回应的严格义务。例如,当无人驾驶汽车的有害行为方式不仅仅出现在极少数场合或者严重不当使用的情形,那么该汽车就不得继续运营,而应当召回。如果操作者此时不作为,那么一旦出现损害,他就要按照应适用的罪名受到处罚。操作者的这一作为义务和产品责任法中的其他情形一样,来自于“先行危险行为”:通过引进或运用某种就其性质而言无法完全掌控的智能代理,操作者(也是出于自己的经济利益)给公众造成了更高的风险,这也使得他面临更为严苛的义务,即持续地注意该产品,并承担(事后才认识到的)危险所引起的必要后果。该义务是一种交易保障义务,它源于涉足某种更高风险,而这种涉足本身是合法的;这不同于因违背义务或违法的先行行为导致的作为义务。
(3)客观归责
如果智能代理的操作者在上文所述条件下违背了谨慎义务,就产生了一个问题:已经造成的、符合构成要件的结果是否能够(“客观地”)归责于他,抑或应当“由机器负责”?
①智能代理作为一般生活风险
拒绝将已发生的结果归责于操作者(违反谨慎义务)的行为或许可以出于这样的理由,即当该结果的直接引发者(即智能代理)本身因故意犯罪而须承担刑责时,存在“回溯禁止”。但是今天的主流观点反对这种普遍的“回溯禁止”,因为如果同一结果客观上可以归责于两个人,那么,两个人必须各自独立地为该(同一)结果负责,原则上是可能的。
更为妥帖的路径是以如下理由反对将智能代理造成的结果归责于其操作者:即该结果的出现(例如自动驾驶汽车致人受伤)是一桩“自然的”、不受人类控制的事件,其中所体现的只是一般的生活风险。然而这需要一个前提,即人们认可智能代理属于日常生活中的正常现象,也熟知并能够应对其包含的风险,这就像在风暴天气时走在林间需要当心掉落的树枝。但是当前以及今后一段时间,可能造成损害的智能代理应该仍然是一种例外现象,因此将其投入使用的人是制造了一种非正常的风险,要为它们的(一般来说是可预见的)失灵承担过失的刑责。而今天,互联网上软件代理的情况已经有所不同,它们作为搜索引擎、推荐系统或其他形式被广泛应用。尽管人们知道存在人格权被侵犯的危险,却依然通过电商购物,知道个人信息会被加工和使用、知道别人有可能通过我们无法洞察无法控制的方式入侵我们的私人领域,却把这种可能性视作一般生活风险。互联网上软件代理的操作者使得他人面临人格权保护方面的“正常”风险,这些风险与搜索引擎的算法相关,而种种迹象表明,今天人们已经认为,对于当事人来说,操作者在此实现的仅仅是一般生活风险。可以预期,将来智能代理成为人类的“正常”互动伙伴后,这样的评判将不仅限于互联网上的相对简单的机器,而会延伸到其他生活领域。一旦无人驾驶的地铁列车和汽车成为轨道和道路交通的常态,那么对于人类而言,与这类车辆相遇也就成为“正常风险”,届时操作者就无需(在刑法上)为每一次通常可预见的失灵承担责任,而只需为本可避免的制造或编程错误引发的损害后果负责。
②作为自主行动的第三人的智能代理
一方面是操作者的作为,另一方面是具有刑法意义的结果的发生,假如我们认定,两者之间的因果关联由于自动行事的机器人的“自主”决定而中断,这就可以成为另一条排除客观归责的路径。这无异于是通过某种方式承认,自动驾驶汽车造成的人身伤害不是制造者的行为,而是“汽车自己的”行为。前文虽已明确,目前无法依据“人类的刑法”惩罚智能代理,但这并不必然意味着,使用自主行事的技术,对于将结果归责于机器背后的人来说无关紧要。如果可以将智能代理的举动认定为“前台亮相者”的自主行为,那么据以将之归责于“隐身后台者”(操作者)的因果关系就会中断。但是只要我们还不能认定智能代理具有自主形成意愿的能力,也就不能认定它可以自主实施加害行为。这在当下还不可能,但我们在前文已经阐明,对于具有学习和记忆能力的智能代理来说,不排除将来会做如此归责。但即使拟人产品的研发已经走到这一步,只要智能代理还没有接受处罚的能力,就仍然要允许对有过失的操作者进行刑事追诉,否则加害行为的受害人就会面临前文所描述的人与智能代理责任混淆的尴尬局面,使得哪怕是最严重的损害都得不到刑事追究。
四、结论
智能代理或多或少为人们带来了福祉,它们在我们的生活中出现,使得法律制度特别是刑法要面对实务性的同时又是原则性的问题,这些问题无法用传统的理论来回答。智能代理的存在提出了一个问题:人之所以成为人?这个问题对于刑法尤为重要,因为刑法是一个高度个人化地针对每个人的法律领域。
迄今为止的刑法归责理论不能提供适当的工具,以对(或许不那么智能的)人与(或许相当智能的)机器互动过程中的责任进行合理划分。而在可预见的将来,肯定智能代理的可罚性还只能是一种设想。智能代理既不具备——可以让人类感知到的——感受刑罚的能力,也无法理解与惩罚相联系的伦理指责,因此针对它们“本人”动用刑法是没有意义的。与法人的可罚性不同,处罚智能代理也不能被解释为让背后的自然人因“组织过错”而间接受罚。无论如何,以故意或过失促成智能代理引发损害为由,直接处罚智能代理操作者,可以有效地惩罚操作者的个人过错。虽然可以设想让智能代理作为独立主体承担民事责任(并为此目的而设立责任保险或责任基金),也可以考虑将失控的智能代理予以摧毁或重置程序,作为针对其所有者的刑法处罚,但是只要智能代理还没有变成道德代理,就不可能严肃地让其本身承担真正的刑事责任。
关于“机器后面的人”的可罚性问题更为棘手。当智能代理的行为造成了有刑法意义的损害,而人又是在蓄意或明知的情况下,借助智能代理实现构成要件,那么此人一定要作为直接正犯承担责任。因为一个人刻意使用机器作为工具,或者明知在该具体情境下使用智能代理会造成有刑法意义的结果却加以放任,那么他不得将罪责推卸给机器。
即使智能代理的行为是在操作者不知情也无意图的情况下客观上实现了犯罪行为构成要件,也不能简单地以算法的“自动性”为借口否认操作者的罪责。指向——由数学指令规定的——自动性的手指,最终指向的还是人,是那个为智能代理的行为设置程序从而也为损害的可能性设置程序的人,或者是那个将其投入使用从而造成这种可能性的人。在仅仅存在过失的场合,可能会在可预见性以及结果归责的层面出现问题。复杂的智能代理,其决策行为并非总是可以预测,因此对于操作者来说,智能代理错误行为的可预见性是有疑问的。在某种范围内,也可以将它们的行为看作是自主的。但是要以此为由阻却对操作者过失的刑事追究,需要满足的前提条件是:按照结果归责的一般规则,智能代理的行为中断了操作者的行为与结果发生之间的因果关系。如果在某类生活领域,智能代理的运用已经如此地成为常态,以至于它的计划外失灵已经可以被归入相关人员的一般生活风险,那么可以认为上述前提条件得到满足。
另一个完全不同的问题是,对于因智能代理的学习能力而产生的小的(剩余)风险,应否——鉴于此类智能代理的巨大社会效益——予以接受。这个问题在过失的层面即已出现,也就是说它可能作为操作者谨慎义务的边界。在最近的将来,有关智能代理刑事责任的探讨应该首先解决这一问题。和其他产品及发明不同的是,人类对于智能代理不能做到完美管控,对与之相联的风险不能完全计划和掌控。机器人越功能多样、越具备学习能力、越“智能”,也就越能摆脱操作者的前瞻性规划,人们也越难以发现制造和编程方面的差错,而这些差错又可能成为相关人员过失可罚性的基础。假如我们不想因为最终无法控制的风险而全面禁止智能代理,那么就别无他途,只能让“社会”来承担那些不能通过编程和负责任的使用而可靠掌控的风险,亦即放弃追究过失的刑事责任,而将蒙受损失的人视为非人类行为的受害者。为此并不需要规定普遍全面地免除机器后面的人的责任,毋宁说只需在智能代理的一般社会效益所能够合法化的范围内,让公众接受它们带来的风险,停止刑法的干预。
从法学方法论角度,可以通过引入灵活的一般条款达到这一结果,例如通过允许研发风险来限制操作者的谨慎义务,或者创立一个合法化事由:对智能代理“符合社会利益的应用”。但是为了法律的确定性,还是应当优先采用更为繁琐的方法,以法律法规的形式为智能代理应用的不同领域中所允许的风险确立标准。这样就可以通过民主合法的程序在两种需求之间创造适当的平衡:一方面的需求是利用自主行动的人类帮手所带来的多种可能性,而无需担忧不可洞悉的刑法后果;另一方面的需求是保障必要的激励,以在智能代理的“美丽新世界”中尽可能广泛地遏制可控的风险。